NVIDIA RTX 6000 Blackwell Server Edition: тесты, сравнение с Workstation и RTX 5090, особенности охлаждения



С выпуском нового поколения чипов Blackwell для рынка потребительских видеокарт ожидаемо было увидеть версии GPU и для рабочих станций, которые должны были прийти на замену A5000/A6000-серии и быть дешевле, чем GPU уровня A100/H100.

Это и произошло, но при этом Nvidia всех окончательно запутала, выпустив за полгода аж три версии видеокарты RTX PRO 6000 Blackwell. Мы в HOSTKEY к гонке производительности подключились с выходом последней версии, а именно RTX PRO 6000 Blackwell Server Edition, протестировали ее, и нам есть что вам рассказать по итогу (и показать).



Мы имеем три варианта видеокарт, которые отличаются форм-фактором, типом системы охлаждения и максимальной потребляемой мощностью. Визуально можно предположить, что средняя версия (Workstation Edition) должна быть самой быстрой и самой горячей, судя по потребляемой мощности. Сравним спеки подробней и сравним их с наиболее быстрой RTX 5090D.



GPU, который мы тестировали (RTX 6000 Blackwell Server Edition), является самым слабым из линейки (хотя, казалось бы, Server-версия должна быть мощнее Workstation), но всё равно быстрее, чем потребительская 5090, за счет большего числа ядер в чипе. Опять же, по энергопотреблению за счет сниженных частот карта укладывается в 300W, но может за счет переключателя быть переведена в boost-режим, когда работает на частотах, близких Workstation Edition. В режиме 300 Ватт карта холодней, чем RTX 5090, а при разгоне обходит потребительскую версию.



Главная фишка Server Edition — пассивное охлаждение, использующее штатные службы продуваемого серверного корпуса, и за счет своего размера, позволяющее размещать в ряд большое число GPU одновременно (фото с выставки).



Собираем сервер
Тестировать эту видеокарту будем в следующей конфигурации:
  • Серверная платформа от ASUS
  • Процессор AMD EPYC 9554
  • 768 Гб ОЗУ DDR5
  • 2x3.84TB NVMe
  • 1xRTX 6000 PRO SERVER

Платформа технически позволяет поставить 4 GPU, но из-за энергопотребления в режиме без ограничений по мощности максимум можно поставить две RTX 6000 PRO SERVER. Вся проблема в том, что в данной платформе на каждую сторону по 4 разъема питания, которые подключаются через переходник в карту. Как видно на фото, в корпусе установлены мощные вентиляторы с двух сторон и специальный кожух, что обеспечивает отличную «продуваемость» радиаторов и компонентов GPU.



А теперь тесты
Тестировать мы будем в двух режимах: работа с LLM в связке Ollama + OpenWebUI и генерация видео с помощью свободной модели WAN2 в ComfyUI. А точнее, в нашем нейросетевом помощнике, который задействует сразу несколько моделей для RAG и работает с внешним MCP-сервером. В качестве подопытной LLM выступает Qwen3-14B, который в режиме контекста 16K занимает порядка 14 Гб видеопамяти.

Забегая вперед, скажем, что сравнение по моделям, которые помещаются полностью в GPU, показало примерно 15–20% прироста производительности к RTX 5090, поэтому цифры будем приводить по отношению к другим видеоадаптерам.

Для начала сравним предыдущее поколение в лице A5000 с RTX 6000 PRO. Сравнивать будем в режиме пониженного энергопотребления, где видеокарта на деле пожирает до 450 ватт (буст-режим), а не максимально описанные в документации 300. Напоминаем, что в A5000 стоит 24 Гб GDDR6.

Задаем нашему нейросетевому помощнику следующий вопрос: «Hi. How to install Nvidia drivers on Linux?»



Как видно, по сравнению с A5000, которая до сих пор в деле, новый GPU мощнее в два с лишним раза, а скорость отклика у него (то есть переключение между моделями, поиск и запросы к MCP-серверу, обработка и вывод ответа) быстрее в 3 с лишним раза.

Но использовать RTX 6000 PRO для таких задач — это как колоть орехи микроскопом. Для интереса сравним на такой же задаче с H100 на «горячем» прогоне. У H100 в 3,5 раза меньше CUDA-ядер, меньше частоты и теоретическая мощность примерно в 4 раза в синтетических тестах. Но выигрыш за счет 4 нм техпроцесса против 5 нм у RTX 6000 PRO и в 10 раз большей ширине памяти и ее типе. Хотя самой памяти в нашей версии 80 Гб против 96.



Как видно, несмотря на двухкратное превосходство RTX 6000 PRO в скорости токенизации, суммарно они идут наравне. Что делает RTX 6000 PRO прекрасной заменой A100/H100 в серверах на инференсе, учитывая, что пропускная способность HBM3 при обмене данными уступает GDDR7. А вот для тренировки или дообучения моделей H100 с ее пониженным энергопотреблением, поддержкой на аппаратном уровне с помощью движка Transformer Engine моделей с точностью FP16/FP8 (H100 только FP4) и ускоренной работой с моделями при их полной загрузке в память (пропускная способность до 3 ТБ/с).

Используем RTX 6000 PRO по полной
Гораздо интересней попробовать эту видеокарту в другой ресурсоемкой задаче — а именно в генерации видео. Для этого будем использовать новую модель от Alibaba с открытыми весами Alibaba и всё это установим в ComfyUI. И у нас здесь опять возникла проблема, а именно CUDA 12.9 (а позже и 13) и ее поддержка в PyTorch. Решением опять же до включения официальной поддержки является установка из ночных сборок:
pip install --pre --upgrade --no-cache-dir torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cu129




Используем режим генерации видео по промту (Wan 2.2 14B text to video). Который у нас будет следующим:
A whimsical and humorous scene unfolds on a serene riverbank, where two hardworking beavers in bright yellow safety helmets and rugged orange overalls team up to haul a massive, gleaming server rack toward their meticulously built beaver lodge. The lodge, constructed from logs and stones, features a bold, modern sign reading «HOSTKEY» in bold, tech-inspired typography. The beavers’ determined expressions and the server rack’s glowing lights create a surreal blend of nature and technology. The river sparkles in the sunlight, and the lodge’s entrance is framed by lush greenery, emphasizing the harmony between the beavers’ natural habitat and their unexpected tech-savvy mission. The scene is vibrant, detailed, and filled with playful energy, blending the charm of wildlife with the precision of data infrastructure. Perfect for a lighthearted, tech-themed animation or meme.

Запускаем, и сам процесс занимает ~40 минут. Потребление памяти в пиковых режимах и потребляемую мощность видно на следующем скриншоте. Максимальная температура выше 83 градусов не поднималась. Генерация в 720p/24, так как модель позиционируется для него, и установка 1080p или увеличение частоты кадров приводит или к зависанию видеокарты, или генерация может составлять более 2 часов (больше мы не ждали, так как процесс повис на 60%).


vk.com/video-223453590_456239030

Если же использовать модель WAN 2.2 5B, то генерация похожего видео (видео 5 секунд, 24 кадра) занимает всего 160 секунд.

Добавляем мощности
Как мы упоминали, на данной видеокарте есть переключатель режимов энергопотребления. Если для моделей это не дало сильного прироста, то генерация видео в режиме 600 ватт уже показывает лучшие результаты. Судя по показаниям nvidia-smi, мы смогли выжать из нее еще пять лишних ватт. Но температура в таком режиме может прыгнуть до 90 градусов.


В среднем же энергопотребление в обоих режимах при генерации держится на уровне 200-250 ватт.

Как видно, при увеличении максимальной потребляемой мощности генерация ускоряется на четверть и составляет в среднем 30 минут. Но жертвовать придется температурой чипа и компонентов, и в задачах, которые требуют длительной работы GPU под нагрузкой, лучше их оставить в режиме пониженного энергопотребления.


Выводы
Видеокарта понравилась. Она гораздо стабильнее потребительской 5090, не имеет на борту забиваемых пылью вентиляторов, лучше память с контролем четности, больше частоты. По сравнению с H100 она дешевле в 4 раза, а для задач, не связанных с глубоким обучением нейросетей, дает сравнимые (а то и лучше) результаты. Инференс, работа с графикой и видео будут лучше, чем на предыдущих поколениях, а новая CUDA 13 и последняя 580-я версия драйверов дали еще прирост производительности.

Из минусов стоит отметить отсутствие драйверов (на момент написания статьи) под Windows Server именно для Server Edition. Для Workstation они есть, но при установке выводится сообщение об отсутствии видеокарты. В Linux такой проблемы нет, и мы тестировали ее и в Ubuntu 22.04, и в 24.04. Единственное, что драйвера потребовали для сборки 6 ядро и GCC 12.

hostkey.ru
hostkey.ru/about-us/sales-contact/

Аренда сервера с GPU для ИИ, нейросетей и рендеринга - от 27420р./месяц




У нас вы можете арендовать актуальные выделенные серверы с GPU от Nvidia для нейросетей, рендеринга и обучения ИИ в Европе. Конфигурации доступны на Nvidia RTX 4000 SFF, Nvidia RTX 6000 Ada Generation, Nvidia L4, Nvidia Tesla V100s, NVIDIA L40S и Tesla H100 80 GB HBM2.

  • Intel Core i5-13500 [14c-20t] (4.8GHz) / 64 GB DDR4 / 2x1.92 TB NVMe SSD / Nvidia RTX 4000 SFF Ada Generation (20GB GDDR6) — 27420р./месяц, 7900р. установка
  • Intel Xeon Gold 5412U [24c-48t] (3.9GHz) / 128 GB DDR5 ECC / 2x1.92 TB NVMe SSD / Nvidia RTX 6000 Ada Generation (48GB GDDR6) — 124700р./месяц, 0р. установка
  • Intel Xeon Gold 5412U [24c-48t] (3.9GHz) / 256 GB DDR5 ECC / 2x1.92 TB NVMe SSD / Nvidia RTX 6000 Ada Generation (48GB GDDR6) — 133500р./месяц, 0р. установка
  • AMD Epyc 9354 [32c-64t] (3.75GHz) / 192GB DDR5 ECC 4800MHz / 2x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 143700р./месяц, 89700р. установка
  • AMD Epyc 9354 [32c-64t] (3.75GHz) / 192GB DDR5 ECC 4800MHz / 4x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 188200р./месяц, 89700р. установка
  • AMD Epyc 9354 [32c-64t] (3.75GHz) / 384GB DDR5 ECC 4800MHz / 2x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 158000р./месяц, 89700р. установка
  • AMD Epyc 9354 [32c-64t] (3.75GHz) / 384GB DDR5 ECC 4800MHz / 4x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 202400р./месяц, 89700р. установка
  • AMD Epyc 9554 [64c-128t] (3.75GHz) / 192GB DDR5 ECC 4800MHz / 2x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 152600р./месяц, 95400р. установка
  • AMD Epyc 9554 [64c-128t] (3.75GHz) / 192GB DDR5 ECC 4800MHz / 4x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 197000р./месяц, 95400р. установка
  • AMD Epyc 9554 [64c-128t] (3.75GHz) / 384GB DDR5 ECC 4800MHz / 2x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 167000р./месяц, 95400р. установка
  • AMD Epyc 9554 [64c-128t] (3.75GHz) / 384GB DDR5 ECC 4800MHz / 4x Nvidia L4 24GB / (System 2x960GB SSD NVMe) / 1Gbps — 211300р./месяц, 95400р. установка
  • 2xIntel Xeon Gold 6226R [32c-64t] (3.9GHz) / 384GB DDR4 ECC 2933MHz / 4x Nvidia Tesla V100s 32GB / 4x1.92TB SSD (System 2x 480GB SSD) / 1Gbps — 355000р./месяц, 213000р. установка
  • 2xAMD Epyc 9354 [64c-128t] (3.8GHz) / 384GB DDR5 ECC 4800MHz / 2x NVIDIA L40S 48GB / 2x3.84TB SSD NVMe (System 2x960GB SSD NVMe) / 1Gbps — 440000р./месяц, 275000р. установка
  • 2xAMD Epyc 9354 [64c-128t] (3.8GHz) / 384GB DDR5 ECC 4800MHz / 4x NVIDIA L40S 48GB / 2x3.84TB SSD NVMe (System 2x960GB SSD NVMe) / 1Gbps — 559000р./месяц, 275000р. установка
  • 2xIntel Xeon Silver 4510 [24c-48t] (4.1GHz) / 256 GB DDR5 ECC Reg / Tesla H100 80 GB HBM2 / 2x960 GB SSD + 2x1920 GB SSD NVMe — 632000р./месяц, 0р. установка

Можно увеличить оперативную память до 768 GB RAM или до 2.3TB в зависимости от конфигурации сервера и увеличить до 50Gbps приватной сети и до 10Gbps внешней сети.

Есть возможность добавить дополнительные диски так же в зависимости от конфигурации.
960 GB NVMe SSD
1.92 TB NVMe SSD
3.84 TB NVMe SSD
7.68 TB NVMe SSD
15.36 TB NVMe SSD

Доступные ОС к установке
CentOS Stream 10
openSUSE 15.6
Ubuntu 22.04.2 LTS
Ubuntu 24.04 LTS
Windows Server 2022

Дополнительные возможности
Панель управления сервером
Безлимитный трафик
Скорость сети 1Gbps
Anti-DDoS
Можно добавить дополнительные IP адреса

Заказать сервер вы можете в личном кабинете my.abcd.host/ либо пишите на почту sales@abcd.host
Другие конфигурации доступные для аренды abcd.host/dedicated

Спасибо, что остаетесь с нами!
ABCD.HOST